iT邦幫忙

2018 iT 邦幫忙鐵人賽
DAY 11
1

我們在前幾天以機率的角度看curve fitting!就提到類似的概念了,不過當時我們只考慮了一個 w 。而這邊我們就更進一步的看可以怎麼做!

首先我們設定prior,
那我們就可以把我們的posterior表示成,其中

如此我們只要假設好 alpha 與 beta,變可以依據手上的資料算出各種 w 的可能性。
不過在實際上,我們對於 w 其實沒有那麼大的興趣,我們真正有興趣的是 w 預測出來的值。因此我們這邊進一步的去計算預測值的分佈狀況!也就是現在,我除了給你一個我預測的值,我再多給你一個我認為真的是這個值的機率,也就是計算下面這個式子。


裡面的t就是我們的資料。

那要怎麼去計算這個預測值的分佈呢?很簡單的想法,那就是我們考慮所有的 w 。也就是把 w 積分起來!也就是下面這個式子


這樣分解的意思是,我們要以 w 去計算預測值,其中要考慮beta這個變異數,而我們計算 w 則是以目前的資料還有alpha與beta。我們要考慮所有的 w ,便是這個積分!

由於兩個機率式子都是高斯分佈,所以相乘也還會是高斯分佈,積分後我們得到

其中

我們看幾張圖,其中每一條虛線都是一個可能的w所產生曲線。


而以下三張圖,紅線是在考慮所有可能的w的情況下,預測值的平均,粉紅色的區塊則是那一點預測值可能的範圍。


從圖可以明顯的看出來,當我們的資料越多,我們越可以確定曲線是什麼!也就是當資料越多,預測就可以表現的越好。
預計明天就跟大家說明一下這幾張圖是怎麼畫出來的!


上一篇
線性模型 - 梯度下降 與 循序學習
下一篇
線性模型 - 動手做看看 貝氏回歸篇
系列文
機器學習你也可以 - 文組帶你手把手實做機器學習聖經30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言